Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Grüß Gott zusammen, erstmal alles Gute im neuen Jahr. Bevor ich anfange,
bin gebeten worden, Sie auf diese Veranstaltung hinzuweisen. Schon allein des Akronyms wegen
lohnt es sich bestimmt dorthin zu gehen. Das ist eines der besten Akronyme, die ich je gesehen habe.
Jedenfalls auch inhaltlich hoffe ich, dass das für Sie interessante Vorträge werden von Herrn
Fiebig und von Herrn Neuss. Ich glaube gerade in einem Fach wie der Mathematik, die extrem divers ist,
die ein ungeheures inhaltliches Spektrum überdeckt, inhaltlich von Ihrer Herangehensweise. Es ist auf
jeden Fall sehr, sehr nützlich als Student, sobald wie möglich so ein bisschen Überblick zu bekommen,
zu wissen, wo vielleicht die Reise hingehen könnte und ich hoffe, dass diese Vorträge Ihnen da
weiterhelfen können. Die sind also morgen 16.15 Uhr im H13. Gut, jetzt zur Vorlesung. Ich hatte ja
schon vor den Ferien angekündigt, dass jetzt als nächstes Kapitel die Frage der numerischen
Approximation von Eigenwerten und Eigenvektoren kommt. Das ist ein Kapitel, was ich in früheren
Jahren in meiner Numerik immer nicht ganz so ernst genommen habe, aber man kann ja auch im Alter noch
dazulernen. Ich halte das mittlerweile für sehr wichtig und werde dem auch einen entsprechenden
Anteil der Vorlesung jetzt widmen. Das ist ein völlig neuer Teil der Vorlesung, den ich jetzt
erst ausgearbeitet habe bzw. dabei bin, den auszuarbeiten und den es dementsprechend auch
nicht auf Folien gibt. Ich werde also diesen Teil der Vorlesung dann ausschließlich als Tafelvorlesung
machen. Wie es danach weitergeht, das können wir uns dann noch überlegen. Wir gehen noch mal
einen Schritt zurück und zwar jetzt bevor es also überhaupt zur Frage der Verfahren gibt,
da werden wir so zwei, drei wesentliche Klassen von Verfahren uns anschauen, stellt sich natürlich
wie bei jeder Fragestellung, die man numerisch angehen möchte, die Frage nach der Stabilität
der Lösung. Ein Verfahren kann nur so gut sein, wie stabil das Problem an sich ist und da hatten
wir uns schon einige Dinge in dem Zusammenhang angeschaut. Das möchte ich jetzt noch in meiner
Erinnerung rufen und dann etwas ergänzen. Also es geht darum zu bewerten, wie stark Eigenwerte oder
auch Eigenvektoren, das sind zwei sehr unterschiedliche Fragen, wie wir sehen werden,
von den wirklichen Werten bzw. den wirklichen Vektoren abweichen, wenn wir eben die
Eigenwertgleichung nicht exakt erfüllen. Das heißt also ein direktes Maß, also wir haben eine Matrix A,
wir haben einen potenziellen Eigenvektor, hier heißt der V, einen potenziellen Eigenwert lambda,
dann ist natürlich ein direktes Maß erstmal, was uns dann zugänglich ist, ist das Residuum. Das
heißt wir setzen lambda und v in die Eigenwert-Eigenvektorkleichung ein und eigentlich
sollte dann, bringen alles auf eine Seite, das heißt wir bilden A v minus lambda v, eigentlich
sollte Null herauskommen, wenn wir einen exakten Eigenwert zu einem exakten Eigenvektor hätten.
Im Allgemeinen wird, wie auch immer wir dann später eben numerisch näherungsweise dieses V und dieses
lambda erhalten haben, da nicht Null herauskommt, wir werden ein Residuum erhalten, genau wie bei der
Lösung von Gleichungssystemen oder nicht linearen Gleichungssystemen und die Hoffnung ist jetzt eben
aus der Größe des Residums auf die Güte der Approximation zu schließen, genauso wie wir das
für die anderen Fragestellungen auch schon kennen. Gut, das Residuum wird jetzt wieder mit R bezeichnet
und was wir schon gesehen haben ist, dass das beim Eigenwertproblem insofern die gleiche
Fragestellung ist, wie stabil ist das Eigenwertproblem, denn wenn ich eben diese Situation habe, ich habe
V und lambda, so dass A v gleich lambda v plus R, das ist die gleiche Beziehung, jetzt nur noch
mal anders hingeschrieben, dann kann ich das auch so interpretieren, dass ich tatsächlich eine Störung
der Matrix A habe, die heißt jetzt Delta A, diese Störung der Matrix A, die wird sich als eine
Rang-1-Störung herausstellen oder hat sich als eine Rang-1-Störung herausgestellt, die hat dann
Spektralnorm gleich der euklidischen Norm des Residums, ist also sozusagen so groß wie das
Residuum ist und V ist dann für diese gestörte Matrix exakter Eigenvektor zum Eigenwert lambda.
Hier in der Formulierung, wie gesagt, das hatten wir ja schon bewiesen, hier ist noch vorausgesetzt,
dass v auf Länge 1 normiert ist, das ist natürlich bei Eigenvektoren oder potenziellen Eigenvektoren
keine Einschränkung, man kann jetzt auch genauso gut das allgemein hinschreiben, vielleicht machen
wir das noch mal, das würde ja nur bedeuten, wenn wir jetzt einen nicht normierten V-Vektor haben,
dann ist dann V geteilt durch die euklidische Norm ein normierter Vektor und dann müssen wir
Presenters
Zugänglich über
Offener Zugang
Dauer
01:32:47 Min
Aufnahmedatum
2013-01-07
Hochgeladen am
2013-08-08 00:59:49
Sprache
de-DE
- Fehleranalyse (Gleitpunktdarstellung, Rundung, Fehlerfortpflanzung, Kondition, Gutartigkeit)
- Polynominterpolation (Dividierte Differenzen, Interpolationsfehler)
- Asymptotische Entwicklungen und Extrapolation (Richardson-Extrapolation)
- Numerische Integration (Newton-Cotes-Formel, Romberg-Integration, Gaußsche Integration)
- Lineare Gleichungssysteme (Gaußscher Algorithmus, LR-Zerlegung, Cholesky-Zerlegung, Matrixnormen, Fehlerabschätzungen)
- Nichtlineare Gleichungssysteme (Fixpunktsätze, Konvergenzordnungsbegriffe, Newton-Verfahren, iterative Verfahren für LGS)
- Lineare Ausgleichsrechnung
- etc.